home *** CD-ROM | disk | FTP | other *** search
/ Language/OS - Multiplatform Resource Library / LANGUAGE OS.iso / cpp_libs / intrvews / tech.txt < prev    next >
Text File  |  1993-07-24  |  34KB  |  718 lines

  1. The following Technical Reports are available from the International
  2. Computer Science Institute via anonymous FTP from icsi-ftp.Berkeley.EDU.
  3. They are located in ~ftp/pub/techreports and are all compressed, postscript
  4. files. If you experience difficulties, send mail to ftp-info@icsi.Berkeley.EDU.
  5. -------------------------------------------------------------------------------
  6. tr-89-032.ps.Z
  7.  
  8.     A Connectionist Model of Unification
  9.     Andreas Stolcke
  10.     TR-89-032
  11.     May 1989
  12.  
  13.         A general approach to encode and unify recursively
  14.         nested feature structures in connectionist networks is
  15.         described.  The unification algorithm implemented by
  16.         the net is based on iterative coarsening of equivalence
  17.         classes of graph nodes.  This method allows the
  18.         reformulation of unification as a constraint
  19.         satisfaction problem and enables the connectionist
  20.         implementation to take full advantage of the potential
  21.         parallelism inherent in unification, resulting in
  22.         sublinear time complexity.  Moreover, the method is
  23.         able to process any number of feature structures in
  24.         parallel, searching for possible unifications and
  25.         making decisions among mutually exclusive unifications
  26.         where necessary.
  27.  
  28.         Keywords and phrases.  Unification, constraint
  29.         satisfaction, connectionism, feature structures.
  30.  
  31. -------------------------------------------------------------------------------
  32. tr-90-009.ps.Z
  33.  
  34.     Miniature Language Acquisition: A touchstone for cognitive science
  35.     Jerome A. Feldman, George Lakoff, Andreas Stolcke,
  36.         and Susan Hollbach Weber
  37.     TR-90-009
  38.     March 1990 (revised April 1990)
  39.  
  40.         Cognitive Science, whose genesis was interdisciplinary,
  41.         shows signs of reverting to a disjoint collection of
  42.         fields.  This paper presents a compact, theory-free
  43.         task that inherently requires an integrated solution.
  44.         The basic problem is learning a subset of an arbitrary
  45.         natural language from picture-sentence pairs. We
  46.         describe a very specific instance of this task and show
  47.         how it presents fundamental (but not impossible)
  48.         challenges to several areas of cognitive science
  49.         including vision, language, inference and learning.
  50.  
  51. -------------------------------------------------------------------------------
  52. tr-90-010.ps.Z
  53.  
  54.     L0: A Testbed for Miniature Language Acquisition
  55.     Susan Hollbach Weber and Andreas Stolcke
  56.     TR-90-010
  57.     July 1990
  58.  
  59.         L0 constitutes a recent effort in Cognitive Science to
  60.         build a natural language acquisition system for a
  61.         limited visual domain.  As a preparatory step towards
  62.         addressing the issue of learning in this domain, we
  63.         have built a set of tools for rapid prototyping and
  64.         experimentation in the areas of language processing,
  65.         image processing, and knowledge representation.  The
  66.         special focus of our work was the integration of these
  67.         different components into a flexible system which would
  68.         allow us to better understand the domain given by L0
  69.         and experiment with alternative approaches to the
  70.         problems it poses.
  71.  
  72. -------------------------------------------------------------------------------
  73. tr-90-011.ps.Z
  74.  
  75.     A Network for Extracting the Locations of Point Clusters
  76.     Using Selective Attention
  77.  
  78.     Subutai Ahmad and Stephen Omohundro
  79.     ahmad@icsi.berkeley.edu and om@icsi.berkeley.edu
  80.     TR 90-011
  81.  
  82.         This   report explores  the   problem of dynamically
  83.         computing visual relations in connectionist systems.
  84.         It concentrates on   the task  of  learning  whether
  85.         three clumps of  points in a  256x256  image form an
  86.         equilateral  triangle.  We  argue that  feed-forward
  87.         networks for solving this task  would not scale well
  88.         to images of this size.  One reason for this is that
  89.         local   information    does  not  contribute  to the
  90.         solution:   it  is  necessary to  compute relational
  91.         information such   as  the distances between points.
  92.         Our solution implements  a mechanism for dynamically
  93.         extracting the locations of the  point clusters.  It
  94.         consists  of     an efficient   focus  of  attention
  95.         mechanism and a cluster detection scheme.  The focus
  96.         of attention mechanism allows  the  system to select
  97.         any circular portion  of the image in constant time.
  98.         The cluster detector directs  the focus of attention
  99.         to clusters  in the image.  These two mechanisms are
  100.         used to   sequentially   extract  the       relevant
  101.         coordinates.  With   this      new    representation
  102.         (locations of the points) very few training examples
  103.         are  required  to learn  the  correct  function. The
  104.         resulting network is  also very compact:  the number
  105.         of required weights is proportional to the number of
  106.         input pixels.
  107.  
  108. -------------------------------------------------------------------------------
  109. tr-90-015.ps.Z
  110.  
  111.     Learning Feature-based Semantics with Simple Recurrent Networks
  112.     Andreas Stolcke
  113.     TR-90-015
  114.     April 1990
  115.  
  116.         The paper investigates the possibilities for using
  117.         simple recurrent networks as transducers which map
  118.         sequential natural language input into non-sequential
  119.         feature-based semantics.  The networks perform well on
  120.         sentences containing a single main predicate (encoded
  121.         by transitive verbs or prepositions) applied to
  122.         multiple-feature objects (encoded as noun-phrases with
  123.         adjectival modifiers), and shows robustness against
  124.         ungrammatical inputs.  A second set of experiments
  125.         deals with sentences containing embedded structures.
  126.         Here the network is able to process multiple levels of
  127.         sentence-final embeddings but only one level of
  128.         center-embedding.  This turns out to be a consequence
  129.         of the network's inability to retain information that
  130.         is not reflected in the outputs over intermediate
  131.         phases of processing.  Two extensions to Elman's
  132.         \shortcite{Elman:88} original recurrent network
  133.         architecture are introduced.
  134.  
  135. -------------------------------------------------------------------------------
  136. tr-91-030.ps.Z
  137.  
  138.     Probability estimation by feed-forward networks in continuous speech
  139.     recognition
  140.     Steve Renals, Nelson Morgan and Herve Bourlard
  141.     TR-91-030
  142.     August 1991
  143.  
  144.         We review the use of feed-forward networks as estimators of
  145.         probability densities in hidden Markov modelling. In this
  146.         paper we are mostly concerned with radial basis functions
  147.         (RBF) networks. We note the isomorphism of RBF networks to
  148.         tied mixture density estimators; additionally we note that
  149.         RBF networks are trained to estimate posteriors rather than
  150.         the likelihoods estimated by tied mixture density
  151.         estimators. We show how the neural network training should
  152.         be modified to resolve this mismatch. We also discuss
  153.         problems with discriminative training, particularly the
  154.         problem of dealing with unlabelled training data and the
  155.         mismatch between model and data priors.
  156.  
  157. -------------------------------------------------------------------------------
  158. tr-91-031.ps.Z
  159.  
  160.     pSather monitors: Design, Tutorial, Rationale and Implementation
  161.     Jerome A. Feldman, Chu-Cheow Lim and Franco Mazzanti
  162.     TR-91-031
  163.     September 1989
  164.  
  165.         Sather is a new object-oriented programming language
  166.         under development at the International Computer
  167.         Science Institute.  The initial beta test release of
  168.         the language was in June, 1991.  From the outset, one
  169.         goal of the Sather project has been the incorporation
  170.         of constructs to support parallel programming.
  171.     
  172.         pSather is a parallel extension of Sather aimed at
  173.         shared memory parallel architectures. A prototype of
  174.         the language is currently being implemented on a 
  175.         Sequent Symmetry and on SUN Sparc-Stations. 
  176.         pSather monitors are one of the basic new features
  177.         introduced in the language to deal with parallelism. 
  178.         The current design is presented and discussed in
  179.         detail.
  180.  
  181. -------------------------------------------------------------------------------
  182. tr-91-032.ps.Z
  183.                  
  184.     GAL: Networks that grow when they learn and shrink when they forget
  185.     Ethem Alpaydin
  186.     TR 91-032
  187.  
  188.         Learning when limited to modification of some
  189.         parameters has a limited scope; the capability to
  190.         modify the system structure is also needed to get a
  191.         wider range of the learnable.  In the case  of
  192.         artificial neural networks, learning  by iterative
  193.         adjustment  of synaptic  weights can only succeed if
  194.         the network designer predefines an appropriate network
  195.         structure, i.e.,  number of  hidden layers,  units,
  196.         and the  size and shape of their receptive and
  197.         projective  fields.  This paper advocates the view
  198.         that the  network  structure should not,  as usually
  199.         done, be determined by trial-and-error but should be
  200.         computed  by the learning algorithm.    Incremental
  201.         learning algorithms  can  modify the network structure
  202.         by addition and/or removal of units  and/or links.  A
  203.         survey of current connectionist literature is given on
  204.         this line  of thought.  ``Grow and Learn'' (GAL) is a
  205.         new algorithm that learns an association at one-shot
  206.         due to being incremental and using a local
  207.         representation.  During  the  so-called   ``sleep''
  208.         phase, units that  were  previously stored but which
  209.         are no longer  necessary  due to recent modifications
  210.         are   removed to   minimize network   complexity.
  211.         The  incrementally constructed network   can  later
  212.         be  finetuned off-line    to improve performance.
  213.         Another method  proposed    that    greatly  increases
  214.         recognition accuracy is  to train a  number of
  215.         networks and vote  over their  responses.   The
  216.         algorithm and   its  variants are   tested on
  217.         recognition of handwritten numerals  and seem
  218.         promising  especially in terms of  learning  speed.
  219.         This makes the  algorithm attractive  for on-line
  220.         learning  tasks,  e.g.,  in   robotics.   The
  221.         biological plausibility of incremental learning is
  222.         also discussed briefly.
  223.  
  224.        Keywords    
  225.         Incremental  learning,  supervised  learning,
  226.         classificomion, pruning, destructive methods, growth,
  227.         constructive methods, nearest neighbor.
  228.  
  229. -------------------------------------------------------------------------------
  230. tr-91-034.ps.Z
  231.  
  232.     Sather Language Design and Performance Evaluation
  233.     Chu-Cheow Lim and Andreas Stolcke%
  234.     TR-91-034
  235.  
  236.         Sather is an object-oriented language recently designed
  237.         and implemented at the International Computer Science
  238.         Institute in Berkeley.  It compiles into C and is
  239.         intended to allow development of object-oriented,
  240.         reusable  software while retaining C's efficiency and
  241.         portability.  We investigate to what extent these goals
  242.         were met through a comparative performance study and
  243.         analysis of Sather and C programs on a RISC machine.
  244.         Several language design decisions in Sather are
  245.         motivated by the goal of efficient compilation to
  246.         standard architectures.  We evaluate the reasoning
  247.         behind these decisions, using instruction set usage
  248.         statistics, cache simulations, and other data collected
  249.         by instrumented Sather-generated code.
  250.  
  251.         We conclude that while Sather users still pay a
  252.         moderate overhead for programming convenience (in both
  253.         run time and memory usage) the overall CPU and memory
  254.         usage profiles of Sather programs are virtually
  255.         identical to those of comparable C programs.  Our
  256.         analysis also shows that each of the choices made in
  257.         Sather design and implementation is well justified by a
  258.         distinctive performance advantage.  It seems, then,
  259.         that Sather proves the feasibility of its own design
  260.         goal of making object-oriented programming efficient on
  261.         standard architectures using a combination of judicious
  262.         language design and efficient implementation.
  263. -------------------------------------------------------------------------------
  264. tr-91-035.ps.Z
  265.  
  266.         HiPNeT-1 :
  267.         A Highly Pipelined Architecture for Neural Network Training
  268.         Krste Asanovic, Brian E. D. Kingsbury, Nelson Morgan,
  269.                 and John Wawrzynek
  270.         TR-91-035
  271.         June 1991
  272.  
  273.                 Current artificial neural network (ANN) algorithms
  274.                 require extensive computational resources. However,
  275.                 they exhibit massive fine-grained parallelism and
  276.                 require only moderate arithmetic precision. These
  277.                 properties make possible custom VLSI implementations
  278.                 for high performance, low cost systems. This paper
  279.                 describes one such system, a special purpose digital
  280.                 VLSI architecture to implement neural network training
  281.                 in a speech recognition application.
  282.                 
  283.                 The network algorithm has a number of atypical
  284.                 features. These include: shared weights, sparse
  285.                 activation, binary inputs, and a serial training input
  286.                 stream. The architecture illustrates a number of
  287.                 design techniques to exploit these algorithm-specific
  288.                 features. The result is a highly pipelined system
  289.                 which sustains a learning rate of one pattern per
  290.                 clock cycle.  At a clock rate of 20MHz each "neuron"
  291.                 site performs 200 million connection updates per
  292.                 second.  Multiple such neurons can be integrated onto
  293.                 a modestly sized VLSI die.
  294.  
  295.  
  296. -------------------------------------------------------------------------------
  297. tr-91-036.ps.Z
  298.  
  299.         Experimental Determination of Precision Requirements for
  300.         Back-Propagation Training of Artificial Neural Networks
  301.  
  302.         Krste Asanovic and Nelson Morgan
  303.         TR-91-036
  304.         June 1991
  305.  
  306.                 The impact of reduced weight and output precision on
  307.                 the back-propagation training algorithm is
  308.                 experimentally determined for a feed-forward
  309.                 multi-layer perceptron.  In contrast with previous
  310.                 such studies, the network is large with over 20,000
  311.                 weights, and is trained with a large, real-world data
  312.                 set of over 130,000 patterns to perform a difficult
  313.                 task, that of phoneme classification for a continuous
  314.                 speech recognition system.
  315.                 
  316.                 The results indicate that 16b weight values are
  317.                 sufficient to achieve training and classification
  318.                 results comparable to 32b floating point, provided
  319.                 that weight and bias values are scaled separately, and
  320.                 that rounding rather than truncation is employed to
  321.                 reduce the precision of intermediary values. Output
  322.                 precision can be reduced to 8 bits without significant
  323.                 effects on performance.
  324.  
  325. -------------------------------------------------------------------------------
  326. tr-91-048.ps.Z
  327.  
  328.         ICSIM: An Object-Oriented Connectionist Simulator
  329.         Hienz W. Schmidt, Benedict Gomes
  330.         TR-91-048
  331.         November 1991
  332.         
  333.  
  334.                 ICSIM is a connectionist net simulator under development
  335.                 at ICSI and written in Sather.  It is object-oriented
  336.                 to meet the requirements for flexibility and reuse of
  337.                 homogeneous and structured connectionist nets and to
  338.                 allow the user to encapsulate efficient customized
  339.                 implementations perhaps running on dedicated hardware.
  340.                 Nets are composed by combining off-the-shelf library
  341.                 classes and, if necessary, by specializing some of their
  342.                 behaviour. General user interface classes allow a
  343.                 uniform or customized graphic presentation of the nets
  344.                 being modeled.  The report gives an overview of the
  345.                 simulator.  Its main concepts, the class structure of
  346.                 its library and some of the design decisions are
  347.                 sketched and a number of example nets are used to
  348.                  illustrate how net structure, interconnection and
  349.                 behavior are defined.
  350. -------------------------------------------------------------------------------
  351. tr-91-050.ps.Z
  352.  
  353.     Learning Spatial Concepts Using a Partially-Structured 
  354.         Connectionist Architecture
  355.     Terry Regier
  356.     TR-91-050
  357.     October 1991
  358.  
  359.         This paper reports on the learning of spatial concepts in 
  360.         the L0 project.  The challenge of designing an architecture
  361.         capable of learning spatial concepts from any of the world's
  362.         languages is first highlighted by reviewing the spatial 
  363.         systems of a number of languages which differ strikingly 
  364.         from English in this regard.  A partially structured 
  365.         connectionist architecture is presented which has 
  366.         successfully learned concepts from the languages outlined.
  367.         In this architecture, highly structured subnetworks, 
  368.         specialized for the spatial concept learning task, feed 
  369.         into an unstructured, fully-connected upper subnetwork.  
  370.         The system's success at the learning task is attributed on
  371.         the one hand to the constrained search space which results 
  372.         from structuring, and on the other hand to the flexibility 
  373.         afforded by the unstructured upper subnetwork.
  374. -------------------------------------------------------------------------------
  375. tr-91-058.ps.Z
  376.  
  377.     Detecting Skewed Symmetries
  378.     Stefan Posch
  379.     TR-91-058
  380.     October 1991
  381.  
  382.         Many surfaces of objects in our world are bounded by 
  383.         planar bilaterally symmetric figures.  When these figures 
  384.         are imaged under orthographic projection a skewed symmetric  
  385.         contour results. In this paper a new fast, local method 
  386.         to recover skewed symmetries from curve segments is proposed.
  387.         It can be applied to  complete as well as to occluded 
  388.         contours. Furthermore, the skewed symmetry property is 
  389.         employed to overcome fragmentation of a contour during 
  390.         segmentation.
  391. -------------------------------------------------------------------------------
  392. tr-91-059.ps.Z
  393.  
  394.     Line Labeling Using Markov Random Fields
  395.     Terry Regier
  396.     TR-91-059
  397.     November 1991
  398.  
  399.         The task of obtaining a line labeling from a greyscale 
  400.         image of trihedral objects presents difficulties not 
  401.         found in the classical line labeling problem.  As originally
  402.         formulated, the line labeling problem assumed that each 
  403.         junction was correctly pre-classified as being of a 
  404.         particular junction type (e.g. T, Y, arrow);  the success 
  405.         of the algorithms proposed have depended critically upon 
  406.         getting this initial junction classification correct.  In 
  407.         real images, however, junctions of different types may 
  408.         actually look quite similar, and this pre-classification
  409.         is often difficult to achieve.  This issue is addressed by 
  410.         recasting the line labeling problem in terms of a coupled 
  411.         probabilistic system which labels both lines and junctions.
  412.         This results in a robust system, in which prior knowledge 
  413.         of acceptable configurations can serve to overcome the 
  414.         problem of misleading or ambiguous evidence.
  415.  
  416.  
  417. -------------------------------------------------------------------------------
  418. tr-91-061.ps.Z
  419.  
  420.     Combinatory Differential Fields: An Algebraic Approach to
  421.     Approximate Computation and Constructive Analysis
  422.     Karl Aberer
  423.     TR-91-061
  424.     October 1991
  425.  
  426.         The algebraic structure of combinatory differential fields 
  427.         is constructed to provide a semantics for computations in 
  428.         analysis. In this setting programs, approximations, limits 
  429.         and operations of analysis are represented as algebraic 
  430.         terms. Analytic algorithms can be derived by algebraic 
  431.         methods.  The main tool in this construction are combinatory 
  432.         models which are inner algebras of Engeler graph models. As 
  433.         an universal domain of denotational semantics the lattice 
  434.         structure of the graph models allows to give a striking 
  435.         simple semantics for computations with approximations. As 
  436.         models of combinatory algebra they provide all essential 
  437.         computational constructs, including recursion. Combinatory 
  438.         models are constructed as extensions of first order theories. 
  439.         The classical first order theory to describe analysis is the 
  440.         theory of differential fields. It turns out that two types of 
  441.         computational constructs, namely composition and piecewise 
  442.         definition of functions, are preferably introduced as 
  443.         extensions of the differential fields theory. Combinatory 
  444.         differential fields are then the combinatory models of these 
  445.         enriched differential fields. We show for basic algorithms 
  446.         of computational analysis how their combinatory counterparts 
  447.         are derived in the algebraic setting. We illustrate how these 
  448.         algorithms are suitable to be implemented in a computer 
  449.         algebra environment like mathematica.
  450. -------------------------------------------------------------------------------
  451. tr-91-062.ps.Z
  452.  
  453.         Self-Testing/Correcting with Applications to Numerical Problems 
  454.         (Revised Version)}
  455.  
  456.         Manuel Blum, Michael Luby, Ronitt Rubinfeld 
  457.         TR-91-062
  458.  
  459.                 Suppose someone gives us an extremely fast program $P$ 
  460.                 that we can call as a black box to compute a function $f$.
  461.                 Should we trust that $P$ works correctly?  
  462.                 A {\em self-testing/correcting pair} for $f$ allows us to:
  463.                 (1) estimate the probability that $P(x) \not= f(x)$ when $x$ is 
  464.                 randomly chosen; (2) on {\em any} input $x$, compute $f(x)$
  465.                 correctly as long as $P$ is not too faulty on average.  
  466.                 Furthermore, both (1) and (2) take time only slightly more 
  467.                 than the original running time of $P$.
  468.                 
  469.                 We present general techniques for constructing simple to 
  470.                 program self-testing/\-correcting pairs for a variety of 
  471.                 numerical functions, including integer multiplication, 
  472.                 modular multiplication, matrix multiplication, 
  473.                 inverting matrices, computing the determinant
  474.                 of a matrix, computing the rank of a matrix, integer division, 
  475.                 modular exponentiation and polynomial multiplication.
  476. -------------------------------------------------------------------------------
  477. tr-91-064.ps.Z
  478.  
  479.     Distortion Accumulation in Image Transform Coding/Decoding Cascades
  480.     Michael Gilge
  481.     TR-91-064
  482.     December 1991
  483.  
  484.         With an  increasing number   of applications  that   employ
  485.         transform coding algorithms for data reduction,  the effect
  486.         of distortion accumulation caused  by multiple coding needs
  487.         to be investigated.   Multiple coding occurs when more than
  488.         one   coding system is connected   in a  cascade.  From the
  489.         second stage on, the coding algorithm operates on data that
  490.         has  been previously coded/decoded.   First a generic image
  491.         communication system is being  modelled and situations that
  492.         can  lead to distortion  accumulation are analyzed.   These
  493.         results show two main  reasons for distortion accumulation,
  494.         which  are  separately and   jointly  investigated using  a
  495.         JPEG-type   compression  algorithm.    The first  situation
  496.         involves geometric operations between the decoding and next
  497.         coding step.   Measurements show however that these spatial
  498.         manipulations  are the    main  contributors to  distortion
  499.         accumulation. The second reason for distortion accumulation
  500.         is a misalignment of the block segmentation reference point
  501.         in  subsequent   transform    operations.  A  block  raster
  502.         detection algorithm is  derived that can  find the position
  503.         of the  block  raster   that  was introduced  in a previous
  504.         coding step.  If   this information is   used in the  block
  505.         segmentation of   the  following   coding  step, distortion
  506.         accumulation can be  avoided.  Simulation results are given
  507.         for   an  extended  algorithm  that  registers  regions  of
  508.         homogeneous block raster in  images  consisting of  several
  509.         subimages.
  510. -------------------------------------------------------------------------------
  511. tr-91-065.ps.Z
  512.  
  513.         Motion Video Coding for Packet-Switching Networks 
  514.         -- An Integrated Approach
  515.         Michael Gilge and Riccardo Gusella
  516.         TR-91-065
  517.         December 1991
  518.  
  519.                 The  advantages of packet   video, constant image quality,
  520.                 service integration and    statistical  multiplexing,  are
  521.                 overshadowed by   packet  loss,   delay  and jitter.    By
  522.                 integrating  network-control into     the  image      data
  523.                 compression algorithm, the strong interactions between the
  524.                 coder and the  network can be  exploited and the available
  525.                 network  bandwidth  can be  used best.  In order to enable
  526.                 video     transmission  over   today's  networks   without
  527.                 reservation or  priorities  and  in the  presence  of high
  528.                 packet loss rates, congestion avoidance techniques need to
  529.                 be   employed.  This is   achieved through   rate and flow
  530.                 control, where feedback from the network is  used to adapt
  531.                 coding  parameters  and  vary  the  output rate.  From the
  532.                 coding point of view the network  is seen  as data buffer.
  533.                 Analogously  to  constant bit   rate applications, where a
  534.                 controller measures  buffer fullness, we attempt  to avoid
  535.                 network congestion (eq. buffer overflow) by monitoring the
  536.                 network and adapting the coding parameters in real-time.
  537. -------------------------------------------------------------------------------
  538. tr-91-068.ps.Z
  539.  
  540.         Construction of a pseudo-random generator from any one-way function
  541.  
  542.         Johan Hastad, Russell Impagliazzo, Leonid A. Levin, Michael Luby
  543.         TR-91-068
  544.  
  545.                 We show how to construct a pseudo-random generator 
  546.                 from any one-way function.  In contrast, previous works 
  547.                 have constructed pseudo-random generators only
  548.                 from one-way functions with special structural properties.  
  549.                 Our overall approach is different in spirit from previous work; 
  550.                 we concentrate on extracting and smoothing entropy from 
  551.                 a single iteration of the one-way function using 
  552.                 universal hash functions.
  553. -------------------------------------------------------------------------------
  554. tr-91-069.ps.Z
  555.  
  556.         RASTA-PLP Speech Analysis
  557.  
  558.         Hynek Hermansky, Nelson Morgan, Aruna Bayya, and Phil Kohn
  559.         TR-91-069
  560.         December 1991
  561.  
  562.                 Most speech parameter estimation techniques are easily
  563.                 influenced by the frequency response of the communication 
  564.                 channel.  We have developed a technique that is more robust
  565.                 to such steady-state spectral factors in speech.  The 
  566.                 approach is conceptually simple and computationally efficient.
  567.                 The new method is described, and experimental results are 
  568.                 reported, showing a significant advantage for the proposed 
  569.                 method.
  570. -------------------------------------------------------------------------------
  571. tr-91-070.ps.Z
  572.  
  573.     Connectionist Speech Recognition: Status and Prospects
  574.  
  575.     Steve Renals, Nelson Morgan, Herve Bourlard, Michael Cohen,
  576.     Horacio Franco, Chuck Wooters and Phil Kohn.
  577.     TR-91-070
  578.     December 1991
  579.  
  580.         We report on recent advances in the ICSI connectionist
  581.         speech recognition project. 
  582.         Highlights include:
  583.         1. Experimental results showing that connectionist
  584.            methods can improve the performance of a context
  585.            independent maximum likelihood trained HMM system, 
  586.            resulting in a performance close to that achieved
  587.            using state of the art context dependent HMM systems 
  588.            of much higher complexity; 
  589.         2. Mixing (context independent) connectionist
  590.            probability estimates with maximum likelihood trained
  591.            context dependent models to improve the performance of
  592.            a state of the art system;
  593.         3. The development of a network decomposition method
  594.            that allows connectionist modelling of context
  595.            dependent phones efficiently and parsimoniously, with
  596.            no statistical independence assumptions.
  597. -------------------------------------------------------------------------------
  598. tr-91-071.ps.Z
  599.  
  600.      GDNN: A Gender-Dependent Neural Network 
  601.                        for 
  602.            Continuous Speech Recognition
  603.      
  604.      Yochai Konig, Nelson Morgan, and Claudia Chandra
  605.      TR-91-071
  606.      December 1991
  607.  
  608.             Conventional speaker-independent speech recognition systems do not
  609.             consider speaker-dependent parameters in the probability estimation
  610.             of phonemes.  These recognition systems are
  611.             instead tuned to the ensemble statistics over many speakers.
  612.             Most parametric representations of speech, however, are highly
  613.             speaker dependent, and probability distributions suitable for
  614.             a certain speaker may not perform as well for other speakers.
  615.             It would be desirable to incorporate
  616.             constraints on analysis that rely on the same speaker producing
  617.             all the frames in an utterance.  Our experiments take a first step
  618.             towards this speaker consistency modeling by using a
  619.             classification network to help generate gender-dependent
  620.             phonetic probabilities for a statistical recognition system.
  621.             Our results show a good classification rate for the gender
  622.             classification net. Simple use of such a model to augment
  623.             an existing larger network that estimates phonetic
  624.             probabilities does not help speech recognition performance.
  625.             However, when the new net is properly integrated in an HMM
  626.             recognizer, it provides significant improvement in word accuracy.
  627. -------------------------------------------------------------------------------
  628. tr-91-072.ps.Z
  629.  
  630.     SPERT: A VLIW/SIMD Microprocessor for
  631.         Artificial Neural Network Computations
  632.  
  633.         Krste Asanovic, James Beck, Brian E. D. Kingsbury, Phil Kohn,
  634.         Nelson Morgan, John Wawrzynek
  635.  
  636.         TR-91-072
  637.         December 1991
  638.  
  639.     SPERT (Synthetic PERceptron Testbed) is a fully programmable single
  640.     chip microprocessor designed for efficient execution of artificial
  641.     neural network algorithms. The first implementation will be in a
  642.     1.2 micron CMOS technology with a 50MHz clock rate, and a prototype
  643.     system is being designed to occupy a double SBus slot within a Sun
  644.     Sparcstation.
  645.  
  646.     SPERT will sustain over 300 million connections per second during
  647.     pattern classification, and around 100 million connection updates
  648.     per second while running the popular error backpropagation training
  649.     algorithm. This represents a speedup of around two orders of magnitude
  650.     over a Sparcstation-2 for algorithms of interest. An earlier system
  651.     produced by our group, the Ring Array Processor (RAP), used commercial
  652.     DSP chips. Compared with a RAP multiprocessor of similar performance,
  653.     SPERT represents over an order of magnitude reduction in cost for
  654.     problems where fixed-point arithmetic is satisfactory.
  655.  
  656.     This report describes the current architecture, and gives the
  657.     results of detailed simulations. The report also makes a short 
  658.     comparison to other high-performance digital neurocomputing chips.
  659. -------------------------------------------------------------------------------
  660. tr-91-074.ps.Z
  661.  
  662.         Recent Work in VLSI Elements for Digital Implementations of
  663.         Artificial Neural Networks
  664.  
  665.         Brian E. D. Kingsbury, Bertrand Irissou, Krste Asanovic,
  666.         John Wawrzynek, Nelson Morgan
  667.         TR-91-074
  668.     December 1991
  669.  
  670.     A family of high-performance, area-efficient VLSI elements is
  671.         being developed to simplify the design of artificial neural
  672.         network processors.  The libraries are designed around the
  673.         MOSIS Scalable CMOS design rules, giving users the option of
  674.         fabricating designs in 2.0um or 1.2um n-well processes, and
  675.         greatly simplifying migration of the libraries to new MOSIS
  676.         technologies.  To date, libraries and generators have been
  677.         created for saturating and nonsaturating adders, a
  678.         two's-complement multiplier, and a triple-ported register
  679.         file.  The SPERT processor currently being designed at ICSI
  680.         will be based upon these libraries, and is expected to run at
  681.         50 MHz when realized in a 1.2um CMOS technology.
  682. -------------------------------------------------------------------------------
  683. tr-92-005.ps.Z
  684.  
  685.     New algorithmic results for  lines-in-3-space problems
  686.  
  687.     Leonidas J. Guibas and Marco Pellegrini
  688.     TR-92-005
  689.     January 1992
  690.  
  691.  
  692.  
  693.     In the first part of the report  we consider some incidence and ordering
  694.     problems for lines in 3-space. We solve  the problem of detecting
  695.     efficiently if a query simplex is collision-free among polyhedral
  696.     obstacles. In order to solve this problem we develop new on-line data
  697.     structures to detect intersections of query halfplanes with
  698.     sets of lines and segments. 
  699.     Then, we consider the nearest-neighbor problems for lines.
  700.     Given  a set of$n$ lines in 3-space, the shortest vertical segment between
  701.     any pair of lines is found in randomized expected time 
  702.     $O(n^{8/5+\epsilon})$ for every $\eps>0$.
  703.     The longest connecting vertical segment is found in time $O(n^{4/3+\eps})$.
  704.     The shortest connecting segment is found in  time $O(n^{5/3 + \epsilon})$.
  705.     Problems involving lines, points and spheres  in 3-space have important
  706.     applications in graphics, CAD and  optimization.
  707.     In the second  part of the report we consider several problems of this kind.
  708.     We give subquaratic algorithms to count the number of incidences
  709.     between  a set of lines and a set of spheres, and to find the minimum
  710.     distance between a set of lines and a set of points.
  711.     We show that the sphere of minimum radius intersecting every  line in 
  712.     a set of $n$ lines can be found in optimal expected time $O(n)$.
  713.     Given $m$ possibly intersecting spheres we solve ray-shooting queries
  714.     in $O(\log^2 m)$ time using a data structure of size $O(m^{5+\eps})$.
  715.     This  technical report collects part of the second author's work
  716.     at I.C.S.I. form September 1991 to January 1992.
  717. -------------------------------------------------------------------------------
  718.